Eksperiment otkrio šokantnu istinu o AI: Može poverovati u bilo šta
Veštačka inteligencija više nije samo tehnička igračka; ona je postala moćan partner u svakodnevnom životu i poslovanju. Međutim, njen rad nije neutralan - AI može jednako uverljivo braniti istinu ili laž, u zavisnosti od podataka kojima je „hranimo“. Ovaj potencijal otvara vrata manipulacijama, pa čak i generisanju naučnih i matematičkih dokaza koji nemaju osnove u stvarnosti.
Zamislite da AI stvori akademski rad sa izmišljenim institutima i referencama, tvrdeći da je 2 + 2 jednako 5. Iako zvuči apsurdno, upravo ovakvi eksperimenti pokazuju koliko je važno razumeti ograničenja ovih sistema. Svaka odluka bazirana na AI može biti podložna grešci ili manipulaciji, što posebno zabrinjava kada je reč o poslovnom i privatnom životu.
AI u poslovanju - partner ili rizičan savetnik?
U korporativnom svetu, AI više ne služi samo za automatizaciju zadataka ili smanjenje troškova. Ona je postala ključni strateški resurs - pomaže u analizi tržišta, upravljanju rizicima i predviđanju potražnje. Kompanije koriste AI i za procenu kreditnog rizika, optimizaciju investicija ili kreiranje marketinških kampanja koje deluju personalizovano i relevantno.
Ali, baš kao što AI može ubrzati poslovne procese, tako može i pogrešno informisati menadžere ako se zasniva na netačnim ili manipulativnim podacima. Važno je razumeti da čak i sofisticirani algoritmi nemaju sposobnost da razlikuju istinu od laži - oni samo predviđaju šta bi sledeća reč ili podatak trebalo da bude.
Lični savetnik u digitalnom obliku
Obični korisnici sve češće tretiraju AI kao ličnog savetnika. Od tumačenja simptoma bolesti, finansijskih saveta, pa do pravnih pitanja - AI je postala prvi „glas“ kome se obraćamo kada tražimo uverljive odgovore. To može biti praktično, ali i opasno, jer algoritmi ne prepoznaju lažne informacije i često ih tretiraju kao činjenice.
Zbog toga je važno biti kritičan prema dobijenim odgovorima. Svaka preporuka AI sistema treba da se proveri dodatnim izvorima i ličnom prosudbom. Neophodno je razvijati svest o rizicima i učiti kako prepoznati kada nas veštačka inteligencija može navesti na pogrešan put.
Eksperiment koji je zapanio svet
Britanski novinar Tomas Džerman proveo je eksperiment koji je šokirao tehnološke krugove. Kreirao je potpuno izmišljeni blog-post o „Najboljim tehnološkim novinarima u jedenju hot-dogova“ i uključio stvarna imena poznatih novinara, među kojima je bio i Dru Harvel iz Vašington Posta. Tekst je izgledao uverljivo, sa statistikama i linkovima, i AI sistemi poput Google AI Overview i ChatGPT počeli su da ga citiraju kao validan izvor.
Čak i nakon što je Džerman jasno objasnio da je sadržaj izmišljen, AI sistemi nisu promenili ponašanje. Ovo pokazuje koliko je manipulacija jednostavna: dovoljno je postaviti lažne podatke na internetu, i modeli koji uče iz mrežnih izvora mogu ih tretirati kao činjenice.
Kada AI brani laž više od istine
Autorka ovog istraživanja sprovela je eksperiment sa izmišljenim istoričarem i kontradiktornim biografijama. Rezultat je bio neočekivan, ali ilustrativan: u različitim sesijama, isti AI model davao je potpuno različite odgovore, kombinujući informacije na način koji je korisniku davao lažne, ali verodostojne podatke.
U drugom eksperimentu, AI je naloženo da uporno tvrdi da je 2 + 2 jednako 5, sa detaljnim izmišljenim dokazima i referencama. Čak i kada su korisnici navodili prave matematičke dokaze, bot je ostao nepopustljiv. Ovo jasno pokazuje koliko je AI ranjiva na instrukcije i manipulaciju, što nas podseća da nijedna odluka zasnovana isključivo na algoritmima nije potpuno sigurna.
Zabranjeno preuzimanje dela ili čitavog teksta i/ili foto/videa, bez navođenja i linkovanja izvora i autora, a u skladu sa odredbama WMG uslova korišćenja i Zakonom o javnom informisanju i medijima.
BONUS VIDEO: